#OpenAI API
OpenAI開發者平台負責人:我們活在矽谷泡泡裡!很多AI部署確實負回報!曝OpenAI內部吃自己的狗糧,模型會把腳手架吃掉!SaaS黃金時代降至
“我們可能真的會進入一個B2B SaaS的黃金時代!”“接近100%的程式碼最初都是由AI生成的。”“我們活在‘矽谷泡泡’裡。”春節前夕,OpenAI API和開發者平台工程負責人Sherwin Wu與知名播客主持人Lenny進行了一期播客錄製。API作為OpenAI的第一個產品,也是幾乎所有AI創業公司都在整合的產品,可以說給了Sherwin一個極其獨特且宏觀的視角。整個行業正在發生什麼,它又將走向何方?Sherwin提到一個被市場嚴重低估的現象——“一人獨角獸”,Sam最早提出的概念。當AI把個人生產力放大十倍、百倍,理論上,一個人真的可以建構一家十億美元公司。也許會有一個十億美元公司,但可能會有上百個一億美元公司,成千上萬個一千萬美元公司。對個人來說,一家一千萬美元的公司已經足夠實現財務自由。更為重要的是接下來的二階和三階市場變化。這也是很少人會公開提及的部分。Sherwin認為,未來業界會進入B2B SaaS和軟體創業的黃金時代。圍繞這些“一人公司”,可能會出現上百家小公司建構高度定製的軟體,以專門專門服務這些高槓桿個體。“隨著軟體開發和營運公司的成本不斷下降,你會看到越來越多公司出現。”即:AI並不是消滅軟體,而是把軟體需求打碎成無數更細、更垂直的場景。過去,一個中型企業可能只買幾套通用SaaS;未來,一個高槓桿個體,可能會購買十幾種高度定製的AI工作流工具。那麼三階效應會怎樣呢?Sherwin給出了一個非常有意思的假設:如果世界變成大量微型公司為一兩個人服務的形態,創業生態和VC生態都會改變。也許只剩下少數大型平台型公司支撐這些微型企業。而那種能帶來100倍、1000倍回報的風險投資項目可能反而減少,因為更多公司會停留在1000萬到5000萬美元規模。此外,Sherwin還給出了一個捅破泡沫的言論:大多數AI部署都是負回報的!世界上大多數人,包括美國大多數人其實並不懂得如何真正部署和“壓榨”AI的價值。“矽谷是泡泡,X是泡泡,軟體工程也是泡泡。他們本身不是軟體工程師,也不密切關注每一次模型發佈。他們對如何使用這項技術並不熟悉。”那麼在OpenAI內部是如何運用AI的呢?他透露到,OpenAI內部有一個團隊正在做實驗,嘗試維護一個100%由Codex編寫的程式碼庫。不同之處在於,當Agent運行不順時,維護團隊並不會“擼起袖子自己敲程式碼”,而是始終讓AI自己編寫。而最重要的一個發現就是:當Agent沒有按你期望工作,通常是“上下文問題”。要麼你描述不夠充分,要麼它缺乏必要資訊。解決方法往往不是自己重寫,而是補充文件、加入程式碼註釋、改進程式碼結構,或者在倉庫中增加MD檔案等資源,把你腦海裡的“部落知識”顯式化,讓模型能讀到。Sherwin另一個有意思的判斷是:模型會把“腳手架”、“Agent框架”當早餐吃掉。“這個領域和模型本身變化太快了,它們往往會自我顛覆,模型會把你搭的腳手架當早餐吃掉。但隨著模型變強,更好的方法反而是去掉大量邏輯,直接信任模型,只給它搜尋工具——甚至只是普通檔案系統。“向量資料庫仍然有價值,但圍繞它建構的整個生態和複雜腳手架,重要性已經下降。隨著模型進步,你可能需要重構抽象層和工具框架。”總之,AI這個領域既令人興奮,也令人抓狂——因為目標是移動的。所以,Sherwin給出的建議是:一定不要過度聽取客戶意見,而是要面向未來1~2年的模型趨勢而建構。對於未來18個月,他還給出了兩個方向:長時程Agent和原生音訊模型。此外,播客中還有不少趣料,比如他認為軟體工程會朝著“外科醫生”發展,再比如業務流程自動化被矽谷低估了,等等。這裡不再一一贅述。以下是小編為大家梳理的精彩觀點。小編給大佬們拜年啦!95%工程師都在用Codex,幾乎100%程式碼最初都是AI生成主持人: Sherwin,非常感謝你來到節目。Sherwin Wu: 謝謝邀請。主持人: 我想從一個可以視為AI進展“晴雨表”的問題開始,尤其是在工程領域。現在你——如果你還寫程式碼的話——以及你團隊的程式碼,有多少比例是由AI編寫的?Sherwin Wu: 我現在偶爾還寫程式碼。對像我這樣的管理者來說,使用這些AI工具其實比手寫程式碼容易得多。我和OpenAI的幾位工程經理,目前所有程式碼基本都由Codex編寫。更廣泛來看,內部有一種明顯的能量場,大家都能感受到這些工具進步有多大,Codex對我們來說已經變得多麼好用。很難精確衡量程式碼比例,因為幾乎可以說接近100%的程式碼最初都是由AI生成的。我們真正追蹤的是使用情況:目前絕大多數工程師每天都在用Codex——95%的工程師在用;100%的PR每天都由Codex稽核。也就是說,任何進入生產環境的程式碼都會經過Codex“過目”,它會提出改進建議。對我們來說最令人興奮的,其實是這種能量感。另一個觀察是:用Codex更多的工程師,提交的PR數量高出70%,而且這個差距還在擴大。他們越來越熟練,效率越來越高。主持人: 所以確認一下,你是說那95%的工程師,他們的程式碼都是AI寫的,然後由他們稽核?Sherwin Wu: 是的。主持人: 這聽起來已經幾乎不再“瘋狂”了,我們都開始習慣。Sherwin Wu: 還是需要適應的。也有工程師對Codex的信任度稍低。但我幾乎每天都會聽到有人驚嘆它能完成什麼,他們對模型自主能力的信任在不斷提高。Kevin Whale(小編註:OpenAI首席產品官)常說:“這是模型此生最差的時刻。”這同樣適用於軟體工程。模型只會越來越好,人們的信任也會不斷增強。主持人: Kevin也在節目裡說過這句話。還有Peter——OpenClaw的開發者——他說自己用Codex時,幾乎相信它可以直接提交到主分支。Sherwin Wu:他是個很好的使用者,也給我們很多反饋。OpenClaw確實是個很棒的產品。今天早上我還看到Moltbook的分享,看到AI Agent彼此對話,感覺非常超現實,就像電影《Her》在現實中發生。工程師變成了管理者,同時管理20個Agent線程主持人: 回到這個對工程師而言瘋狂的時代。我們從“自己寫每一行程式碼”變成“AI寫所有程式碼”。我不知道還有那個職業變化這麼劇烈。工程師的角色在未來幾年會變成什麼樣?Sherwin Wu: 看到這一切真的很酷,也正是這種變化帶來了興奮。未來一到兩年,工程師的工作會發生重大改變。現在大家還在摸索階段,這是一段罕見的窗口期,也許在未來12到24個月,我們可以自己定義新的標準。有一個常見說法是:個人貢獻型工程師正在變成技術負責人,幾乎像管理者一樣。他們在管理成群的Agent。我團隊裡的工程師經常同時拉著10到20個線程平行推進——當然不是同時跑任務,而是在不斷檢查、引導、給Codex反饋。他們的工作已經從“寫程式碼”轉變為“管理程式碼生成過程”。軟體工程師就像“巫師”,用AI就像施咒語Sherwin Wu:至於未來走向,我常想到大學時讀的一本程式設計教材——《Structure and Interpretation of Computer Programs》。《SICP》在麻省理工學院(MIT)當年非常流行,它曾長期作為入門程式設計課的教材,也因此擁有一種“宗教式”的追隨者文化。它用的是一種名為Scheme的Lisp方言來教學,會把你帶入函數式程式設計的世界,非常開腦洞。但對我來說,這本書最難忘的是它在開篇對“程式設計”這門學科的定義——它把程式設計類比為“巫術”。書裡說,軟體工程師就像巫師,程式語言就像咒語,你念出這些咒語,它們就會替你完成事情。挑戰在於:你要念出什麼樣的咒語,程序才會按你的意願運行。這本書寫於1980年,但這個隱喻居然一路延續至今。我覺得它正在真實發生在我們進入“vibe coding”新時代的過程中。程式語言一直都是某種“咒語”,只是隨著時間推移,表達方式越來越高級,讓電腦按你的意圖行動變得越來越容易。而這一波AI,可能就是這條演進路徑的下一階段。現在它真的成了“咒語”——你可以直接告訴Codex、Cursor你想要什麼,然後它們去幫你完成。我特別喜歡“巫師”這個比喻,因為我們現在的狀態其實越來越像《幻想曲》裡的“魔法師學徒”。米老鼠戴上魔法帽,試圖施法,結果失控——掃帚開始瘋狂打水,房間被淹。他給掃帚下達任務後自己睡著了,事情就失控了。我覺得這比喻非常貼切。一方面,這些“咒語”威力巨大,槓桿極高;但另一方面,你必須知道自己在做什麼。不能完全放手不管,否則模型就可能“跑偏”。當我看到工程師同時管理20個Codex線程時,那確實需要技巧、資歷和深思熟慮。你不能徹底離開,也不能完全忽視。但一位真正熟練的高級工程師,現在可以通過這些工具完成遠超以往的事情。這也正是樂趣所在——真的感覺自己成了巫師,施展魔法,讓軟體為你完成各種任務。主持人: 我剛才聽你講的時候腦子裡就是“魔法師學徒”的畫面。之前也有嘉賓說過,現在像是擁有一個可以許願的精靈,但你必須非常精確地表達願望,否則後果難料——甚至像“猴爪”故事那樣,願望實現了,卻伴隨副作用。Sherwin Wu: 對,這個比喻很好。SICP也被稱為“巫師之書”,因為這個隱喻貫穿全書。我們現在真的走到了那個階段,這本身就很酷。OpenAI內部實驗:100%由Codex編寫程式碼的團隊,維護基本就是補充上下文主持人: 有兩個方向我想繼續追問。一個是,我越來越多地聽到人們提到,當Agent不按預期工作時,會產生一種壓力。你同時啟動一堆Codex Agent,還得盯著它們——這個不工作了,那個浪費時間了。你在團隊裡也感受到這種壓力嗎?Sherwin Wu: 有,而且經常發生。我認為這裡正是目前最有意思的部分。模型和工具都還不完美,我們仍在摸索如何與它們最佳協作。內部有一個特別有意思的團隊正在做實驗:他們維護一個100%由Codex編寫的程式碼庫。通常你會讓AI寫程式碼,但最終會自己重寫很多部分、做檢查修改。但這個團隊是“徹底Codex化”,完全不留退路。他們遇到的正是你說的問題:想實現某個功能,但Agent始終做不到。通常這時你會“擼起袖子”自己寫程式碼,或用Tab補全、Cursor等工具。但這個團隊沒有這個逃生艙口。於是問題變成:如何讓Agent真正完成任務?我們可能會發佈一篇部落格總結經驗。一個重要發現是:當Agent沒有按你期望工作,通常是“上下文問題”。要麼你描述不夠充分,要麼它缺乏必要資訊。解決方法往往不是自己重寫,而是補充文件、加入程式碼註釋、改進程式碼結構,或者在倉庫中增加MD檔案等資源,把你腦海裡的“部落知識”顯式化,讓模型能讀到。取消“人工逃生通道”之後,他們開始真正理解,如果要全面擁抱Agent,我們需要解決那些結構性問題。15分鐘的審查任務縮短到2~3分鐘主持人: 你提到,使用AI的工程師提交PR的數量大幅增加。這意味著程式碼審查會成為瓶頸。你們有什麼辦法避免工程師整天只是在Review PR嗎?Sherwin Wu: 首先,Codex現在稽核我們100%的PR。一個有趣現像是:我們最早交給模型的,往往是我們最討厭、最枯燥的工作。程式碼審查就是其中之一。對我來說,程式碼審查曾經是最痛苦的工作之一。我畢業後的第一份工作在Quora,負責Newsfeed程式碼。因為那是核心模組,所有人都會改動。每天早上打開電腦,看到20到30個待審PR,拖著拖著就變成50個。那種感覺非常糟糕。Codex在程式碼審查方面非常強。尤其是GPT-4.5在這方面已經非常擅長,只要你給它合適的引導方向。它可以快速指出潛在問題、改進建議,甚至提前識別破壞性變更。所以,至少在程式碼審查這個維度,AI確實正在顯著緩解規模化帶來的壓力。Sherwin Wu: 所以在程式碼審查方面,是的,我們確實建立了大量PR,但Codex會稽核全部PR。這讓程式碼審查從原本10到15分鐘的任務,有時縮短到兩三分鐘,因為很多修改建議已經提前生成好了。很多情況下,尤其是小型PR,甚至不再需要人工稽核——我們在這方面已經相當信任Codex。程式碼審查的本質是“第二雙眼睛”,確保你沒犯低級錯誤。現在,Codex已經是一雙非常聰明的“第二雙眼睛”,所以我們在這方面投入得很深。此外,CI流程以及程式碼提交後的部署流程,也已經大量通過Codex實現自動化。很多工程師最煩的事情是:寫完漂亮的程式碼之後,怎麼把它部署上線?要跑測試、修lint錯誤、做程式碼審查……這一整套流程。很多環節都可以通過Codex自動化處理。我們內部已經建構了一些工具來自動修復lint錯誤——如果出現lint問題,Codex可以直接生成補丁,然後重新觸發CI流程。我們的目標是把工程師在這些環節的工作量壓縮到最低。結果就是,他們現在可以合併和發佈更多PR。吃自己的狗糧,用不同模型版本切換主持人: Codex寫程式碼,又用Codex稽核程式碼。我很好奇,你們是否考慮用其他模型來稽核自己模型的工作?還是說現在已經足夠好了?Sherwin Wu: 確實存在某種“循環”的問題——回到“魔法師學徒”的比喻,你不希望掃帚失控。所以我們在選擇那些PR可以完全交由Codex稽核時是非常謹慎的。大多數人仍然會查看自己的PR,並不是完全放手,而是從“100%注意力”降低到大概“30%注意力”,這已經足夠提高效率。至於多模型策略,我們內部測試很多模型,也有不少模型變體可供選擇。外部模型用得較少,我們認為“吃自己的狗糧”很重要,通過使用自家模型來獲得反饋。當然,在內部不同模型版本之間切換,獲得不同視角,是常見做法,而且效果不錯。主持人: 為了給大家一個清晰的現狀刻度:可以說OpenAI現在生產環境中的程式碼100%由Codex編寫嗎?Sherwin Wu: 我不會說今天線上運行的程式碼100%由AI寫成,因為歸因很難精確。但幾乎所有工程師現在都高度依賴Codex。如果要粗略估計,我會說現在絕大多數程式碼很可能最初是由AI生成的。頂級績效者會越來越強管理者本身頁變得更高桿槓主持人: 我們談了很多IC工程師的變化,但關於工程經理的討論較少。AI興起之後,你作為經理的生活發生了什麼變化?未來經理的角色會是什麼?Sherwin Wu: 相比工程師,經理的變化沒那麼劇烈。還沒有專門的“經理版Codex”。不過,我確實用Codex來輔助一些管理相關的工作。目前變化還不算巨大,但趨勢已經出現。如果把趨勢推演下去,就能看到方向。一個越來越明顯的現像是:Codex極大放大了頂尖績效者的生產力。我覺得這可能是AI在整個社會層面的共性——那些真正“傾身投入”、有主動性、願意掌握工具的人,會大幅自我增強。我已經看到這種分化:頂尖績效者的產出明顯拉開差距。因此,團隊內部的生產力分佈變得更寬。我的管理哲學一直是,把大部分時間花在頂尖績效者身上——確保他們沒有阻礙、保持開心、感覺被支援、被傾聽。在AI時代,這一點更重要,因為頂尖人才會用這些工具“飛起來”。比如那個維護100% Codex程式碼庫的團隊,讓他們自由探索、深挖最佳實踐,已經帶來很大回報。我認為未來經理會花更多時間在這類高槓桿群體上。另一個趨勢是:AI工具讓經理本身也變得更高槓桿。比如把ChatGPT接入組織知識庫,連接GitHub、Notion、Google Docs,在做績效評估時,可以快速生成一份過去12個月工作成果的深度報告。我推測,未來經理可以管理更大的團隊。就像工程師管理20到30個Codex線程一樣,管理者也會因為工具的加持而變得更高槓桿。當前軟體工程的最佳管理跨度大概是6到8人,但未來可能會遠遠超過這個數字。這種趨勢已經在支援、營運等非工程領域出現:隨著更多事務交給Agent,人可以處理更多事務,也能管理更多人。我認為在人力管理領域也會發生類似變化。我們已經看到一些工程經理管理人數顯著增加,而且做得相當不錯,因為他們能更高效地獲取團隊資訊、理解組織背景。主持人: 你提到一直把時間投入在頂尖績效者身上。Mark Andreessen之前在節目裡說過,AI讓好的人更好,讓偉大的人變得卓越。Sherwin Wu: 對。一個很好的例子是,內部有一群工程師非常沉浸在Codex實踐中,研究如何與模型最佳互動。這是極高槓桿的事情。作為經理,我會鼓勵他們繼續探索,並把最佳實踐在組織內傳播——通過知識分享會議、文件沉澱等方式。這會抬高整個組織的水平。我認為這正是“頂尖績效者變得卓越”的體現。一人獨角獸:更多公司會停留在5000萬美元的規模與未來二階、三階變化主持人: 很多人都有一種直覺:AI很大,它正在改變世界。但你覺得有那些變化是大家還沒有真正“定價進去”的?有那些潛在影響是我們還沒有意識到的?Sherwin Wu: 我最喜歡的一個說法,是這波AI浪潮中誕生的“一個人打造十億美元公司”的概念。我記得可能是Sam最早提出來的。這個想法很迷人——當個人槓桿被極度放大,理論上確實可能出現一家“一個人、十億美元”的公司。但我覺得大家還沒有真正把它的二階、三階效應算進去。“一個人十億美元公司”意味著,一個人的主動性和槓桿被工具放大到極致,他可以極其高效地完成公司所需的一切,從而打造出價值十億美元的業務。但它還有其他含義。第一,如果一個人能做到這一點,那說明創業本身會變得更容易。我認為這會帶來一次巨大的創業潮,尤其是中小企業(SMB)式的爆發——任何人都能為任何細分場景建構軟體。我們已經在AI創業領域看到垂直化趨勢:為特定行業打造AI工具往往效果很好,因為你能深度理解那個場景。如果把這個趨勢推演下去,完全可能出現100倍數量的垂直創業公司。我甚至覺得,為了支撐一個“一個人十億美元公司”,可能會有上百家小公司建構高度定製的軟體,專門服務這些高槓桿個體。因此,我們或許會進入B2B SaaS和軟體創業的黃金時代。隨著軟體開發和營運公司的成本不斷下降,你會看到越來越多公司出現。我的想法是:也許會有一個十億美元公司,但可能會有上百個一億美元公司,成千上萬個一千萬美元公司。對個人來說,一家一千萬美元的公司已經足夠實現財務自由。這種爆發式增長,我覺得大家還沒有真正“定價”。再往三階效應看——當然越往遠推不確定性越高——如果世界變成大量微型公司為一兩個人服務的形態,創業生態和VC生態都會改變。也許只剩下少數大型平台型公司支撐這些微型企業。而那種能帶來100倍、1000倍回報的風險投資項目可能反而減少,因為更多公司會停留在1000萬到5000萬美元規模。這對VC來說未必理想,但對高主動性的個人來說非常好,他們可以借助AI為自己打造業務。主持人: 我們已經講到三階效應了,我想聽四階效應了。Sherwin Wu: 四階效應太“超腦”了,我還沒法推那麼遠(笑)。主持人: 關於“十億美元公司”,我其實有點悲觀。光是支援成本就很難規模化。即便有AI幫忙,除非你客戶很少且客單價極高,否則支援問題本身就難以靠一個人處理。Sherwin Wu: 我同意這一點,但我的看法略有不同。也許你自己的播客就可能成為十億美元公司。關鍵在於,你不必親自派AI去處理所有支援工單。可能會出現十幾家專門為播客和Newsletter建構支援軟體的小公司——它們本身就是“一個人公司”。它們能非常輕鬆地建構出高度定製的產品,而你作為“一個人公司”去購買這些服務。隨著軟體建構成本急劇下降,你可能會外包越來越多事務,從而縮小自己公司的規模。最終,仍然可能是一個人驅動一個高槓桿的公司,達到十億美元規模。當然,不確定性仍然存在。主持人: 我也在想,像Peter(OpenClaw創始人)現在被各種需求、郵件、PR淹沒——而他甚至還沒變現。Sherwin Wu: 這可能就像我們剛發佈ChatGPT那幾個月的瘋狂狀態。他一個人承受這種規模,一定非常瘋狂。主持人: 也許四階效應是:分發變得更重要,因為太多東西在爭奪注意力。有受眾、有平台的人價值更高。軟體工程會朝“外科醫生”發展主持人: 回到管理話題。除了多花時間在頂尖績效者身上,你還有那些核心管理心得?Sherwin Wu: 很多經驗未必特定於OpenAI API業務。我自己的管理理念這些年有所演進,但總體變化不算太大。其中一個核心原則就是剛才提到的:把大量時間投入在頂尖績效者身上。具體來說,可能超過50%的時間花在前10%的績效者身上,真正賦能他們。我常用一個比喻——來自《The Mythical Man-Month》——把軟體工程師比作外科醫生。這個比喻對我的管理理念影響很大。其實挺有意思的。我是從那本《The Mythical Man-Month》裡看到這個比喻的。那本書寫於上世紀70年代,當時他們其實像是在預測未來。他們說,軟體工程可能會演變成一種類似“外科手術室”的模式——工程師就像外科醫生。手術室裡真正“動刀”的只有一個人,其他人——護士、住院醫師、研究員——都在為他提供支援。外科醫生說“給我手術刀”,就有人遞上;說“需要某個裝置”,馬上就到位。所有人圍繞一個核心執行者展開支援。那本書當年就預言,軟體工程可能會朝這個方向發展。當然,現實並沒有完全變成那樣——軟體開發仍然是高度協作的,不是一個人完成所有工作。但我一直很喜歡這個類比,也在自己的管理理念中努力去“模擬”這種模式。軟體工程不是手術,但我希望團隊成員能有“外科醫生”的感覺:他們是核心執行者,而我作為管理者,要確保他們擁有一切所需資源,感覺背後有一支軍隊在支援他們——那怕實際上只有我一個人在做這些支援工作。 舉個例子,“提前看到轉角”並為團隊掃清障礙,在組織層面上極其重要。尤其在今天的AI時代更是如此。如果大家只是不斷提交PR,真正卡住進度的往往不是技術,而是組織流程和協作問題。作為管理者,如果能提前預判阻塞點,在“醫生”開口之前就準備好“手術刀”,那就是最佳狀態。這是我理解的工程管理方式。這個類比雖然不完全貼切,但一直伴隨我整個職業生涯。主持人: 我很喜歡這個說法。我在想,AI是不是也能幫助管理者“提前看到轉角”?比如預測某個工程師將會因為某個決策被卡住,我們是不是可以提前處理?Sherwin Wu: 這是個很好的問題。我還沒試過,但如果把ChatGPT接入公司知識庫,問它:“當前團隊的活躍阻塞點是什麼?掃一遍Notion文件、Slack消息,找出潛在卡點。”也許會很有意思。你剛剛給了我一個靈感。 更進一步,不只是識別當前阻塞點,而是預測未來幾個月某個工程師或團隊可能遇到什麼問題。讓AI去做二階、三階推演——提前預判下個月的“卡點”。這個思路很有潛力。我們活在泡泡裡:矽谷是泡泡,X也是泡泡,大多數人並不真正懂AI部署主持人: 我想把話題轉回你們的API和平台。你和很多公司合作,幫助他們部署AI。你提到很多公司在AI部署上其實是負ROI,這和外界的感受一致。到底出了什麼問題?Sherwin Wu: 先澄清一下,我沒有直接看到量化資料——這類ROI很難精確測算。但從觀察來看,我不會驚訝如果很多AI部署確實是負回報的。甚至在科技圈之外,很多人有一種情緒:AI是被“強行推到他們頭上”的。這種牴觸感,本身可能就和負ROI有關。我看到幾個現象。第一,我們所在的矽谷,其實活在一個泡泡裡。X是泡泡,矽谷是泡泡,軟體工程是泡泡。世界上大多數人——包括美國的大多數人——都不是軟體工程師,也不密切關注每一次模型發佈。他們對如何使用這項技術並不熟悉。 在我們這裡,大家討論的是最佳實踐、codecs、agents、MCPs等高級用法;X上那些發帖的人幾乎都是重度AI使用者。但當我和一些公司一線員工交流時,他們只是用AI做非常基礎的事情,對技術原理幾乎沒有理解,也沒有真正“壓榨”它的能力。這就引出一個問題:理想的AI部署模式是什麼?在我看來,成功案例往往具備兩個條件——自上而下的支援,以及自下而上的採用。 高層要明確戰略,比如“我們要成為AI-first公司”,願意投入資源和預算;但更關鍵的是基層員工真正願意學習、嘗試、分享最佳實踐。只有當一線員工主動擁抱技術,並在具體工作場景中摸索“最後一公里”的應用細節,AI才真正開始創造價值。在OpenAI內部也是如此。我們一直想成為AI驅動的公司,但真正加速發生,是當員工開始把這些工具直接應用到日常工作中。因為每個崗位——工程、財務、營運、銷售——都有獨特的工作細節,這些都需要自下而上地打磨。 我的感覺是,很多公司缺少這種自下而上的採用和熱情,因此AI部署很難真正產生正向ROI。有些公司就是非常明確地下達命令,自上而下推進,而且完全脫離一線實際工作的樣子。結果就是,你會得到一支龐大的員工隊伍,他們其實並不理解這項技術,只是知道“我應該用這個”,甚至績效考核裡也寫著要用,但不知道該怎麼用。看看周圍,也沒人真正用起來,沒有榜樣可以學習。突擊隊的構成:技術鄰近型人才,不是工程師Sherwin Wu:我的建議是,公司如果真的想推動AI,不如在內部設立一個全職“突擊隊”——一個AI tiger team,專門探索技術的能力邊界,把它落地到具體工作流,做知識分享,製造興奮感。如果沒有這樣的團隊,其實非常難真正用起來。主持人: 這個tiger team應該是什麼構成?工程師主導?還是跨職能?Sherwin Wu: 很有意思的是,很多公司其實根本沒有軟體工程師。我看到的模式往往是“技術鄰近型人才”——不是工程師,但很技術。比如客服團隊負責人、營運負責人,不會寫程式碼,但特別喜歡用這些工具,可能還是Excel高手。這類“技術鄰近”“編碼鄰近”的人往往最興奮,也最願意鑽研。通常可以圍繞他們組建團隊。反而很多時候不是工程師在主導。工程師當然理解技術,但不是每家公司都有工程師——他們稀缺、昂貴,也不好招。主持人: 所以反模式就是:CEO和高管宣佈“我們要AI-first”,每個人的績效都要和AI使用掛鉤,但沒有自下而上的傳播者,最後效果不好?Sherwin Wu: 對,完全正確。更好的做法是找到那些最興奮、最主動的人,與其讓他們分散在組織裡,不如把他們聚在一起,形成一個AI evangelist團隊,去探索用法,再向全公司擴散。換個角度說,這也和我的管理理念一致——找到AI採用上的“高績效者”,賦能他們。讓他們組織駭客松、做內部分享、傳播最佳實踐,在組織內部種下興奮的種子。目標是移動的:Agent框架、腳手架的作用在減弱今天流行的是Skills、上下文管理主持人: 有個你提到過的觀點挺有爭議:在AI領域,過度聽客戶意見可能會把你帶偏。Sherwin Wu: 我不覺得這有多“熱”。當然要和客戶溝通,這是有價值的。但問題在於,AI這個領域——尤其過去三年——變化太快了,模型本身不斷自我顛覆,尤其是在工具和“腳手架”(scaffolding)層面。我這周讀到一篇文章,是FinTool創始人Nicholas寫的,他總結自己在金融服務裡做AI agent的經驗。有一句話我特別喜歡:“模型會把你的腳手架當早餐吃掉。”回到2022年ChatGPT剛發佈的時候,模型還很“原始”,於是大家圍繞它建構了大量產品級腳手架,尤其在開發者生態裡,用各種框架、agent框架、向量資料庫、embedding系統去“引導”模型輸出想要的結果。 但隨著模型能力迅速提升,它們真的開始“吃掉”這些腳手架。今天流行的是skills檔案、基於檔案的上下文管理。但我也能想像一個未來,模型可以自己管理這些,不再需要這種檔案式結構。 你已經看到這種演化:agent框架的作用在減弱;2023年我們以為向量資料庫會成為組織上下文輸入的核心方式,需要把所有語料embedding,再精細最佳化向量搜尋。但隨著模型變強,更好的方法反而是去掉大量邏輯,直接信任模型,只給它搜尋工具——甚至只是普通檔案系統。向量資料庫仍然有價值,但圍繞它建構的整個生態和複雜腳手架,重要性已經下降。所以回到“要不要聽客戶”這個問題:如果你只聽客戶,他們可能會說“我要更好的向量資料庫”“我要更強的agent框架”。但那可能只是當前的局部最優。隨著模型進步,你可能需要重構抽象層和工具框架。 這個領域令人興奮,也令人抓狂——因為目標是移動的。今天的工具組合,未來很可能會大幅演化。與客戶溝通時,你必須平衡他們當前的需求和你對未來1-2年模型趨勢的判斷。主持人: 這讓我想到《苦澀教訓》(The Bitter Lesson)——在AI裡,越少人為複雜邏輯、越少手工規則,越能規模化,讓算力和模型自己解決問題。Sherwin Wu: 是的,幾乎可以說有一個“AI建構版的苦澀教訓”。我們曾經圍繞模型搭了很多架構,但模型進步後把它們都吞掉了。坦率講,我們OpenAI API團隊也走過一些彎路。但模型不斷進步,我們每天都在重新學習這條“苦澀教訓”。建構面向未來的AI產品主持人: 那對今天基於API或agent建構產品的人來說,最核心的建議是什麼?Sherwin Wu: 我的核心建議一直是:為模型將要去的方向建構,而不是為模型今天的狀態建構。Sherwin Wu: 這顯然是一個不斷移動的目標。我看到那些真正做得好的創業公司,往往是圍繞一種“理想能力”在做產品——這種能力今天可能只實現了80%。產品現在是“差一點點就到位”,但隨著模型變強,突然某一天就“啪”地一下完全跑通。也許最初在o3上還不行,但到了5.1、5.2版本就徹底解鎖。他們在設計產品時,是把模型能力持續提升這個趨勢考慮進去的。如果你默認模型是靜態的,你做出來的體驗一定不如這種“面向未來”的產品。是的,你可能需要稍微等一等,但模型進步太快了,通常也等不了太久。未來6-18個月模型會走向那裡?音訊被嚴重低估了主持人: 那未來6到12個月,API、平台和模型會走向那裡?Sherwin Wu: 最明顯的方向是——模型可以連貫執行多長時間的任務。現在有一個衡量軟體工程任務時長的基準測試,統計模型在50%、80%成功率下可以持續完成多長時間的任務。目前前沿模型在50%成功率下已經可以完成多小時的任務,在80%成功率下接近一小時。更震撼的是,你把歷代模型都畫在那張圖上,能清晰看到趨勢。 現在大多數產品還在圍繞“分鐘級任務”最佳化。那怕是像Code工具,更多也是互動式、10分鐘左右的工作流。確實有人把它推到多小時,但那是例外。按照趨勢推演,未來12到18個月,模型可能可以非常連貫地完成多小時任務,甚至一天6小時等級的任務——你把任務派發出去,它自己幹一陣子。 圍繞這種能力建構的產品會完全不同。你肯定要加入反饋機制,不會讓它完全失控地跑一整天,但可實現的任務空間會大幅擴展。另一個方向是多模態,尤其是音訊。模型現在的音訊能力已經不錯,但未來6到12個月會明顯提升,特別是原生語音到語音模型。在企業場景裡,音訊被嚴重低估。大家都在談程式碼、文字,但現實世界大量業務是通過“說話”完成的——客服、銷售、營運。未來12到18個月,這個領域會非常激動人心,會解鎖更多能力。主持人: 總結一下,就是Agent會運行更久、更穩定;音訊會變得更核心、更原生。Sherwin Wu: 是的,非常令人興奮。業務流程自動化的機會被矽谷低估了主持人: 你還有一個觀點:你非常看好AI在業務流程自動化上的機會。Sherwin Wu: 這又回到“我們活在矽谷泡泡裡”這個問題。我們習慣的軟體工程、產品管理,其實和支撐整個經濟運行的工作形態差異巨大。 如果你和一家非科技公司聊天,會發現大量工作都是“業務流程”。軟體工程是開放式知識工作,不可重複,你不會一遍遍做同一個功能。但大量現實世界工作是高度可重複的——有標準操作流程(SOP),有既定步驟,偏離反而不好。 比如你打客服電話,對方就在跑流程;打給水電公司,他們有明確能做和不能做的事情。我非常看好這一類——將AI真正嵌入企業資料和系統,自動化這些高確定性的、可重複的業務流程。這塊機會被低估,是因為它不在矽谷主流討論視野裡。主持人: 你的意思是,相比工程領域,AI在這些重複型崗位上的生產力影響可能更大?Sherwin Wu: 至少是同樣巨大,甚至在業務流程側的變化會更顯著。我常被問:20年後的公司會是什麼樣?軟體工程只是其中一部分,更大的變化可能發生在業務流程層面。這塊規模非常龐大,只是我們在X或Twitter上很少討論。創業者會不會被OpenAI碾壓?不用過度焦慮,做使用者真正熱愛的產品主持人: 換個話題。所有基於API創業的人都會問:如何避免被OpenAI自己下場做同樣的產品?Sherwin Wu: 我的一般回答是,這個市場真的太大了,大到創業公司其實不必過度糾結OpenAI或者其他大模型實驗室會往那裡走。我見過很多創業公司,有做得不成功的,也有做得非常好的。那些失敗的公司,從來不是因為OpenAI、某個大實驗室或者Google下場“碾壓”了他們,而是因為他們做的產品根本沒有真正打動客戶。反過來看那些起飛的公司——那怕是在極度競爭的領域,比如程式設計工具,像Cursor現在已經非常大了——原因只有一個:他們做了使用者真正熱愛的產品。所以我的建議是,不要過度焦慮。只要你做出真正有人喜歡的東西,你一定會在這個生態裡找到自己的空間。我真的無法誇張地形容現在機會有多大。用AI建構產品的機會窗口,是前所未有的。一個有趣的例子是:這個市場大到連VC的“可接受投資範圍”都被改寫了。風投現在會毫不猶豫投資彼此競爭的公司,因為機會空間實在太大了。從創業者角度看,這反而是最令人振奮的——那怕你只做出一個讓一部分人“非常非常喜歡”的產品,也可能成長為一家極其有價值的公司。所以不要過度思考OpenAI會不會做同樣的事。OpenAI的定位:生態平台型公司,不會把能力鎖在自己產品裡Sherwin Wu:另外,從OpenAI的角度,我們一直把自己視為一個“生態平台型公司”。API是我們的第一個產品。我們非常重視生態建設,也不希望去擠壓它。Sam和Greg從一開始就反覆強調這一點。如果你觀察我們的決策,會發現這一點貫穿始終。我們發佈的每一個模型,都會進入API。那怕是為Codex場景最佳化的模型,也最終會開放給API使用者。我們不會把能力“鎖在自己產品裡”。我們保持平台中立,不遮蔽競爭者,允許開發者訪問我們的模型。最近測試的“用ChatGPT登錄”等功能,本質上也是在強化生態。我們的思路是“水漲船高”。也許我們像一艘航母,但如果潮水上漲,所有船都會受益,我們自己也會受益。API的增長已經證明了這一點。所以,與其把OpenAI看成一個會把別人擠走的存在,不如專注於打造真正有價值的產品。我們會繼續致力於一個開放生態。主持人: 為什麼對OpenAI來說,“做平台”這麼重要?Sherwin Wu: 這其實寫在我們的使命裡。我們的使命有兩部分:第一,建構AGI;第二,讓AGI的收益惠及全人類。重點在“全人類”。我們很早就意識到,單靠一家公司不可能觸達世界每個角落。所以早在2020年我們就推出了API。我們需要一個平台,讓其他人去建構我們自己不可能覆蓋的應用——比如播客主和Newsletter作者的客服機器人。這正是API存在的意義。我們每天都在和客戶交流,也非常享受看到各種多樣化的應用誕生。這從第一天起就是使命的一部分。主持人: 還有你們的ChatGPT應用程式商店。Sherwin Wu: 那是ChatGPT團隊主導的,我們密切合作。他們開發了Apps SDK。這也是平台戰略的延伸。ChatGPT現在每周有大約8億活躍使用者——這是一個極其龐大的資產。與其獨佔這流量,不如讓其他公司也能圍繞這個使用者群體建構產品,最終這也會擴大整個生態規模。主持人: 每周8億使用者,這數字已經讓人麻木了。Sherwin Wu: 這大概相當於全球10%的人口,而且還在增長。規模確實令人震撼。主持人: 你們一直強調“讓AI惠及全人類”。比如免費版ChatGPT,任何人都可以使用,而且能力並不比最強模型差太遠。Sherwin Wu: 是的。免費模型這幾年進步非常大。2022年的免費模型和今天相比完全不是一個量級。今天免費使用者用到的是2GB 5等級的能力。我們一直在“抬高地板”,讓全球更多人受益。再換個角度說,你花20美元一個月,就能用到和億萬富翁幾乎相同的AI能力;花200美元,可以用Pro版本。某種程度上,這是前所未有的技術民主化。OpenAI API的分層結構:從API到“元層面”主持人: 最後一個問題。對於想基於API建構產品的人來說,你們的平台到底能做什麼?Sherwin Wu: 簡單來說,我們的API允許開發者建構智能體、多模態應用、語音應用,以及各種結合企業資料的AI系統。你可以呼叫最前沿的模型,接入工具、檔案系統、搜尋、函數呼叫等能力,建構可以自主執行任務的系統。你可以圍繞文字、程式碼、圖像、音訊建構應用,也可以把模型嵌入到自己的產品流程裡。我們的目標是提供儘可能通用、強大、可擴展的基礎能力,讓開發者在其之上創造屬於自己的產品和體驗。從根本上說,我們的 API 提供了一系列開發者端點,這些端點本質上讓你可以呼叫我們的模型進行採樣。目前最受歡迎的是 Responses API。它是一個為建構長時間運行的智能體而最佳化的介面,也就是那種可以持續工作一段時間的 agent。在一個非常底層的層面上,你基本上只是向模型輸入文字,模型會運行一段時間,你可以輪詢查看它在做什麼,最終在某個時刻獲得模型返回的結果。這是我們提供的最底層原語,實際上也是很多人最常用的方式。它非常“無預設立場”,幾乎不做限制,你基本可以隨心所欲建構任何東西,因為它足夠底層。在此之上,我們也開始建構越來越多的抽象層,幫助大家更容易搭建這些系統。再往上一層是 Agents SDK,它現在也變得極其流行。通過它,你可以基於 Responses API 或其他介面,建構更傳統意義上的“智能體”——比如一個在無限循環中運行的 AI,它可以把子任務委派給子 agent,建構出一整套框架和腳手架。未來會演變成什麼樣還不好說,但它確實讓建構這類系統變得更容易,比如加入護欄、把子任務分發給其他 agent,甚至編排一個“智能體群”。Agents SDK 就是為此設計的。再往上,我們還開始建構一些工具,幫助解決部署智能體的“元層面”問題。比如我們有一個叫 Agent Kit 的產品,還有 Widgets——本質上是一組 UI 元件,可以讓你非常輕鬆地在 API 或 Agents SDK 之上建構一個美觀的介面。因為從 UI 角度看,很多智能體的形態其實很相似。除此之外,我們還有一系列評測工具,比如 Eval API。如果你想測試模型、智能體或工作流是否正常運行,可以通過我們的評測產品進行量化驗證。所以在我看來,這是一個分層結構——不同層級都在幫助你基於我們的模型建構想要的東西,抽象程度逐級提升、預設也逐漸增強。你可以直接使用整套技術堆疊,很快搭建一個 agent;也可以一路往下,回到底層的 Responses API,自由建構任何你想要的系統,因為它足夠原始、足夠底層。接下來兩三年會持續讓人振奮Sherwin Wu:如果還有什麼想留給大家的話,我會說,未來兩到三年將會是科技行業和創業世界最有趣的時期之一,而且可能是很久以來最有趣的一段時間。我鼓勵大家不要把它當成理所當然。我是 2014 年進入職場的,最初幾年很棒,但後來有五六年科技行業並不算特別興奮。過去三年則是我職業生涯中最瘋狂、最令人振奮的階段,我認為接下來的兩三年還會延續這種勢頭。所以不要錯過。總有一天這波浪潮會趨於平緩,變得更加漸進式發展。但在此之前,我們將探索很多酷炫的東西,發明全新的事物,改變世界,也改變我們的工作方式。這是我最想說的。主持人:當你說“不要錯過”時,你會建議大家具體做什麼?Sherwin Wu:參與進來。正如你說的,主動投入。建構工具是其中一部分,但即便不是軟體工程師,也完全可以參與。很多工作都會因此改變。使用這些工具,理解它們的能力邊界——知道它們能做什麼、不能做什麼,然後觀察它們隨著模型進步能開始做到什麼。核心就是熟悉這項技術,而不是躺平讓它從你身邊溜走。主持人:但現在資訊爆炸,也會讓人焦慮。Sherwin Wu:坦白說,我自己可能是個反面例子,因為我長期泡在 X 和公司 Slack 上,資訊吸收量很大。但我觀察到的一點是:大量內容其實是噪音。你不需要 110% 地吸收所有動態。專注一兩個工具,從小處入手,已經遠遠足夠。行業節奏本來就快,再疊加社交平台,會形成一種讓人窒息的新聞洪流。其實你沒必要掌握所有資訊才能真正參與。那怕只是安裝 Codex 客戶端玩一玩,或者安裝 ChatGPT,把它連接到 Notion、Slack、GitHub 等內部資料來源,看看它能做什麼、不能做什麼,都已經是在參與。美國更像是一個律師主導的社會酷愛蘋果產品主持人:閃電問答環節——你最常推薦的兩三本書是什麼?Sherwin Wu:我推薦一本小說和兩本非虛構。小說是《There Is No Antimemetics Division》,作者是 QNTM。我是在 X 上看到有人分享的。這是一部帶有科幻色彩的作品,我兩天就讀完了。文筆極佳,非常有創意,講的是一個政府機構對抗“會讓人遺忘自身存在之物”的故事。設定新鮮、構思聰明,而且無意中還挺幽默——雖然基調接近科幻恐怖,但讀著讀著會讓人發笑。非虛構方面,我最近一年讀了不少關於中美關係的書。有兩本讓我印象深刻。第一本是丹·王的《Breakneck》,他用“律師型社會”和“工程師型社會”來對比美國與中國,分析各自的優劣。我讀完後也在想,美國確實像是一個由律師主導的社會。第二本是帕特里克·麥吉寫的關於 Apple 與中國關係的書,非常有意思。我是個不折不扣的蘋果迷,如果你現在看到我的桌面,會發現幾乎全是蘋果產品。那本書讓我對蘋果與中國之間的複雜互動有了更深入的理解。第二點是,這本書包含了大量關於 Apple 公司的內部資訊,我覺得非常吸引人。讀起來節奏很快,也非常應景,是一本很“及時”的書。主持人:那本《There Is No Antimemetics Division》聽起來太棒了,我現在就下單。Sherwin Wu:對對對,我記得也就兩百來頁,我真的兩天就讀完了,實在太精彩。一款智能家居硬體:Ubiquiti主持人:那你最近發現並特別喜歡的一款產品是什麼?Sherwin Wu:最近我重新搭建了家裡的 Wi-Fi 和家庭網路系統,徹底換成了 Ubiquiti 的路由器和安防攝影機。之前從沒接觸過這個品牌,我以前的配置都很簡單。這次深入使用後,真的覺得它做得非常好。如果要打個比方,它就像家庭網路領域的蘋果。硬體設計很漂亮,但真正厲害的是軟體——他們的移動端管理應用做得非常出色,可以統一管理家庭網路。如果你家裡布好了乙太網路線路,用它效果會非常好。我尤其推薦他們的安防攝影機系統,接入 Ubiquiti 生態後,可以通過手機、Apple TV、iPad 即時查看監控畫面,體驗非常流暢。價格不算便宜,但也沒貴到離譜,整體體驗真的很棒。永遠不要自憐主持人:好建議。你有沒有一句人生信條,經常在工作或生活中提醒自己?Sherwin Wu:我經常對自己說的一句話是——永遠不要自憐。無論是在工作還是生活中,總會發生各種事情。提醒自己不要沉溺於自憐,而是意識到自己始終擁有行動能力,能夠把自己拉起來,這對我很重要。我也經常對別人這麼說。主持人:太好了。再次感謝你。Sherwin Wu:謝謝你,Lenny。謝謝大家。 (51CTO技術堆疊)
AI軍備競賽的真相:1.4兆砸下去,才發現瓶頸不是晶片!
當今科技界最有權勢的兩個人——OpenAI 的 CEO 山姆·奧特曼(Sam Altman)和微軟的 CEO 薩提亞·納德拉(Satya Nadella)——最近坐到了一起。在播客《All things AI》上,他們的一場對話,不小心洩露了 AI 革命背後一個驚人又好笑的秘密。大家都以為 AI 競賽的關鍵是演算法、是資料、是更牛的晶片。但納德拉親口承認,今天限制他們狂飆的最大瓶頸,甚至不是缺輝達的 GPU,而是缺能把這些晶片插進去的“暖房”(warm shells)。你沒聽錯,就是物理世界的資料中心、配套的電力、乃至於施工隊的進度,成了數字世界狂奔的最大“絆腳石”。1.4兆的豪賭:唯一的風險是“彈藥不夠”對話中最尖銳的問題,莫過於主持人拋出的那個天文數字:OpenAI 承諾在未來幾年投入高達 1.4 兆美元去搞算力基礎設施建設。 而 OpenAI 今年的營收,據報導“也就”130億美金。這聽起來簡直是“蛇吞象”,錢從那來?奧特曼的回答相當霸氣,他先是糾正:“我們的收入比你報的多得多。” 接著半開玩笑地說:“你要是擔心,想賣手裡的 OpenAI 股票,我立馬就能給你找到買家。”潛台詞很明顯:我們不愁錢,更不愁沒人信。奧特曼承認這是一場豪賭,賭的就是 AI 的能力和收入會繼續“陡峭地增長”。在他看來,那 1.4 兆不是負債,而是實現下一個目標的“彈藥”。他們真正恐懼的,不是錢花多了,而是“彈藥不夠”。沒有足夠的算力,就做不出更強的模型,也就無法產生更多收入。而作為最大的“彈藥供應商”,納德拉也力挺奧特曼,他說 OpenAI 交給微軟的每一版商業計畫,“每一次都超額完成了”。拆解新協議:微軟血賺,OpenAI 也沒虧這場對話的另一個核心,是雙方剛敲定的新合作協議。外界一直好奇,在這場聯姻中,到底誰佔了便宜?答案是:微軟拿到了“裡子”,OpenAI 獲得了自由。根據新的協議,微軟拿到的最大王牌,不是那 27% 的股權(估值約1350億美元),而是一項長達七年的“免版稅使用權”(Royalty-free access),可以盡情使用 OpenAI 的模型和 IP。 納德拉自己都興奮地表示,這相當於“免費獲得了一個前沿模型”(a frontier model for free)。這意味著,微軟可以把這個星球上最強的 AI 大腦,幾乎“零成本”地塞進它所有的核心產品裡——Office、Windows、GitHub、Bing……這筆買賣,堪稱科技史上最划算的投資之一。那麼 OpenAI 得到了什麼?答案是“有控制的自由”。新協議規定,OpenAI 的核心模型 API(你可以理解為 GPT-4o 或未來的 GPT-5)在 2030 年之前,將繼續在微軟的 Azure 雲上向大企業客戶“獨家”提供。 但是,其他所有產品——包括萬眾矚目的視訊模型 Sora、AI 智能體(Agents)、開源模型,以及未來可能推出的可穿戴裝置等——都不再受此限制。 OpenAI 可以自由地在亞馬遜的 AWS 或Google的雲平台上分發這些產品。這是一個精妙的平衡,微軟鎖定了雲服務的核心競爭力,而 OpenAI 則獲得了探索更多商業模式的廣闊空間。AI 的終極目標:科學發現與宏觀委託花了這麼多錢,繫結得如此之深,他們到底想去向何方?奧特曼給出了一個充滿理想主義色彩的答案:“AI 用於科學”(AI for Science)。他最期待的,是 AI 能夠做出那怕微小但卻是“全新的科學發現”的那一刻。 在他看來,當 AI 開始擴展人類知識的總和時,那就是超級智能的某種體現。納德拉則更為務實,他聚焦於人機互動的下一次革命。他將其定義為“宏觀委託,微觀調校”(Macro delegation and micro steering)。這是什麼意思?想像一下,你不再是對著搜尋框或聊天框小心翼翼地提問,而是直接給 AI 下達一個大任務,比如“幫我策劃並預訂下周去日本的全家旅行”。AI 會自己去搞定一切,只在關鍵節點回來問你:“酒店 A 和 B,你選那個?”這背後,是 AI 從一個“工具”到一個“管家”或“代理人”的轉變。我們每個人的未來:一個人頂一個團隊聊到最後,話題不可避免地觸及了 AI 對普通人工作的影響。納德拉提出了一個詞:“利潤率擴張的黃金時代”(golden age of margin expansion)。他預測,未來的公司,營收可能會翻倍,但員工數可能只會增加一點點。因為 AI 將每個員工的“槓桿率”極大地放大了。他舉了一個微軟內部的例子:一個負責網路營運的女主管,需要和全球 400 家光纖營運商打交道,工作極其繁瑣。她向上級抱怨,就算批准預算,也招不到足夠的人來幹這活。於是,她自己動手,用 AI 做了許多智能體,把整個維運流程給自動化了。這就是未來——“AI 讓你一個人幹一個團隊的活”。這不是一個關於大規模失業的恐怖故事,而是一個關於“重新學習如何工作”的提醒。在 AI 的加持下,一個團隊能完成過去十倍的工作量。未來,公司的“人頭數”增長將遠遠慢於“營收”的增長。這場對話揭示了一個清晰的現實:AI 競賽已經從程式碼和演算法的“數字戰”,正式進入了拼資料中心、拼能源的“物理戰”。而微軟和 OpenAI 這對已經深度捆綁的盟友,正試圖用天量的資本和一份精妙的協議,聯手定義下一個計算時代,以及我們每個人的工作方式。 (AI進擊之旅)
中國國內首次!8.9毫秒推理速度破紀錄,1元打穿百萬token
【新智元導讀】當所有人還在為參數內卷時,智能體真正的決勝點已經轉向了速度與成本。浪潮資訊用兩款AI伺服器直接給出了答案:一個將token生成速度幹到10毫秒以內,一個把每百萬token成本打到1元時代。Agentic AI時代,已經到來!輝達GTC大會上,老黃公開表示,當AI具備了感知和推理能力時,智能體AI就誕生了。「它如同數字世界的「機器人」,本質是理解-思考-行動」。當前,AI智能體革命已至臨界點。國內外科技巨頭紛紛加速佈局,全力爭奪這一賽道主導權。據Gartner預測,到2028年,AI智能體將參與人類約15%的日常工作決策。Georgian報告也顯示,如今,91%的企業研究主管正計畫在內部鋪開Agentic AI的落地應用。然而大規模部署之前,「互動速度」與「成本控制」仍是橫亙在許多企業面前的兩大關鍵挑戰。這裡有簡單的一個案例,就足以說明一些問題。國外一支開發團隊基於Azure的OpenAI服務,建構了一個智能體。然而,隨著時間的推移,響應變得越來越慢,一次簡單查詢耗費10秒以上。當他們用OpenAI API測試完全相同的提示詞後發現:OpenAI響應時間為1-2秒,Azure則需要5-10秒。同一款模型,同一個提示詞,卻有五倍差異。要知道,智能體的互動速度,直接決定了使用者體驗的質量。如今,人們對AI響應速度的期待,已從「秒級」進化到「毫秒級」。不僅如此,成本又直接決定了智能體產業化的可行性。多智能體的協作,對低延遲和token消耗又提出了更高的要求。分毫必爭的響應速度,決定了人們是否願意買單;而真金白銀的投入,則決定了企業能否持續推動AI智能體落地。那麼,如何才能既要又要呢?在2025人工智慧計算大會上,浪潮資訊重磅發佈了兩大破局創新系統:元腦SD200超節點AI伺服器,以及元腦HC1000超擴展AI伺服器。在元腦SD200上,DeepSeek R1大模型的Token生成速度飆升至8.9毫秒,創下國內LLM推理的最快紀錄,首次將智能體即時互動帶入「10毫秒」時代。在元腦HC1000上,LLM的推理成本被前所未有地壓縮至「1元/百萬Token」,徹底擊穿規模化部署的成本天花板。Scaling Law下一站:AI智能體爆發2025年,大模型的Scaling並未放緩,而是進入了一個全新的階段。Scaling Law的焦點,早已從「預訓練」轉向了「推理」。從o3、Gemini 2.5,到Grok 4、GPT-5,全球頂尖AI不斷迭代,每一次發佈都刷新了以往SOTA。這一演進的節奏仍在加速。爆料稱,GoogleGemini 3.0、OpenAI Sora 2都將於十月初面世。反觀國內,DeepSeek R1/V3.1-Terminus、Qwen家族等開源模型,月更、周更已成為常態。在能力邊界上,LLM正從純文字,走向了融合視覺、聽覺的多模態模型,並逐步演變為一個底層「作業系統」。可以預見,AI能力將依舊會指數級增長——LLM性能越來越強,所處理的任務長度和複雜度,也在不斷提升。我們看到,Scaling Law推動的模型參數量,從百億千億向兆、甚至百兆邁進。與此同時,在後訓練階段增加算力投入,可顯著提升LLM推理能力。為何這一轉變如此重要?因為「推理」是建構Agentic AI的基礎。眾所周知,2025年,是「智能體元年」。作為LLM的核心應用形態,智能體落地進入了爆發期。在這一賽道上,Google、OpenAI、Anthropic等巨頭競相佈局。比如,OpenAI的「編碼智能體」GPT-5-Codex深受開發者歡迎;另外,還有正在內測的「GPT-Alpha」,具備高級推理、全模態,可以呼叫工具。然而,AI智能體的產業化落地並非易事。能力、速度和成本,成為了當前AI智能體產業化決勝的「鐵三角」。AI不再侷限於技術演示、實驗,而要深入場景,成為創造可衡量價值的核心生產力。這意味著,商業成功的核心已從單純追求模型能力,轉向對能力、速度、成本三者的綜合平衡。互動速度:決定智能體的商業價值在智能體時代,速度不再是錦上添花,而是生存底線。token的吞吐速度,已成為AI應用建構的「隱形計時器」。在人機互動時代,我們對AI延遲感知不強,只要響應速度跟上人類閱讀思維即可。一般來說,只要滿足20 token/s輸出速率,就能實現流暢的閱讀體驗。而現在,AI的遊戲規則徹底改變。互動主體不再是「人-機」對話,而是「智能體-智能體」的高頻博弈。延遲那怕是幾毫秒,也可能導致決策失效。而且,在規模化商業部署中,這種差異會被無限放大,形成「以快殺慢」的絕對碾壓。智能體間互動,多為「小封包」高頻通訊。這好比修了16條車道高速公路,AI只跑兩公里,巨大的頻寬對於小包傳輸如同虛設。而傳統通訊協議「上下高速」的過程,反而成了主要耗時。延遲是會層層累加的。當前智能體僅是初露鋒芒,未來網際網路將由它們主導協作。每一個互動環節的微小延遲,都會在複雜的協同網路中呈指數級放大,最終導致整個應用響應慢到無法接受。如果延遲無法降低,那就失去了商業化的可能性。舉個栗子,在欺詐防控場景中,對智能體響應速率提出了極限要求——約10毫秒。當前,DeepSeek響應速度基本在10-20毫秒左右,其他的普遍高於30毫秒。這遠不足以支援AI的高頻互動。token成本:規模化的生死線此外,token成本,是智能體能否實現規模化擴張,並且盈利的關鍵。即便模型能力卓越,若token成本無法控制在合理範圍內,高頻、並行的實際應用,將難以持續。一方面,LLM存在著「token膨脹」效應:推理前思考過程已產生上千萬token。一個複雜任務,直接讓token成本指數級暴漲。那麼,是什麼原因導致token思考數暴增?首先必須承認的是,模型本身演算法能力差異是影響因素之一。不同LLM在設計和訓練過程中,演算法架構和最佳化策略各有優劣,而最佳化程度更高的LLM可通過更高效推理路徑,在較少token消耗下完成相同的任務。其次,底層計算架構選擇路徑等,也會進而影響token成本。因為LLM運行有依賴於底層的計算架構,包括硬體加速器、分散式運算框架等等。若是計算架構無法高效支撐LLM推理需求,比如在分佈式系統中存在通訊瓶頸或計算資源分配不均,LLM可能需要生成更多token「繞路」完成任務。當前,在做AI Coding的程式設計師,每月消耗token數比一年前平均增長約50倍,達到1000萬-5億token。企業每部署一個智能體,平均token成本大概1000-5000美元。未來五年,token消耗預計增長100萬倍。可見,不論是速度,還是成本,都成為AI智能體商業化落地的最大挑戰。面對這個難題,我們該如何解?兩大核心方案,拿下速度成本難題浪潮資訊,同一時間給出了兩大解決方案——元腦SD200超節點AI伺服器元腦HC1000超擴展AI伺服器元腦SD200若要實現更低延遲token生成能力,就需要在底層基礎設施,比如架構、互聯協議、軟體框架等關鍵點上,實現協同創新。浪潮資訊新的突破,在於元腦SD200超節點AI伺服器。如前所述,DeepSeek R1在元腦SD200上token生成速度實現了8.9毫秒。目前,最接近的競爭對手,最好的資料是15毫秒。這是國內首次將智能體即時互動,帶入到10毫秒時代。為何元腦SD200能夠取得如此大的速度突破?這背後離不開團隊,融合了智能體應用和超節點開發的技術成果。 首創多主機3D Mesh系統架構它可以實現單機64路本土AI晶片縱向擴展(Scale Up),提供4TB視訊記憶體和6TB記憶體,建構超大KV Cache分級儲存空間。而且,單節點即可跑4兆參數LLM,或同時部署多個協作的智能體。此外,在硬體設計上還支援了「開放加速模組」(OAM),相容多款本土AI晶片。 跨主機域全域統一實體位址空間團隊還通過遠端GPU虛擬對應技術,突破了跨主機域統一編址的難題,讓視訊記憶體統一地址空間擴展8倍。它還支援拓撲動態伸縮,可按需擴展128、256、512、1024卡的規模。通過Smart Fabric Manager,元腦SD200實現了單節點64卡全域最優路由,保障了晶片間通訊路徑最短,進一步縮短了通訊延遲。最重要的是,互連協議的設計,是元腦SD200實現極低延遲的關鍵。首先,團隊採用了基建的協議棧,只有物理層、資料鏈路層、事務層三層協議,原生支援Load/Store等「記憶體語義」,GPU可直接訪問遠端節點的視訊記憶體或主存。並且,基礎通訊延遲達到了「百納秒級」。其次,浪潮資訊Open Fabric原生支援由硬體邏輯實現的鏈路層重傳,延遲低至微秒級。不依賴OS、軟體棧,它就能匹配更低延遲、更高吞吐的AI推理場景。元腦SD200還採用了,分佈式、預防式流控機制,無需丟包或ECN來感知擁塞。得益於以上高效、可靠的協議設計,元腦SD200實現了業界最低0.69微秒通訊延遲。當然了,超節點的大規模商業化應用,還必須依靠整機的高可靠的設計。為此,浪潮資訊從系統硬體層、基礎軟體層、業務軟體層,建構了多層次、可靠的保障機制。系統硬體層:全銅纜電互連,短距離緊耦合傳輸,每十億小時故障率低於「光模組互聯」方案100倍基礎軟體層:創新GPU故障資訊轉儲、跨域故障關聯定位等技術,實現全方位可觀測、全端維運自動化業務軟體層:基於Profiling性能資料啟動故障預隔離和任務自動遷移,保證業務故障預測與自癒,實現推理響應不中斷在元腦SD200上,團隊還非常強悍地實現了推理性能超線性擴展。這意味著,性能的提升幅度超過了資源投入的增加幅度。以DeepSeek R1-671B為例,從16卡擴展到64卡,實現了16.3倍超線性的擴展率!具體來看,元腦SD200將這件事做到了極致的完美:通過PD分離策略、動態負載平衡等技術,充分發揮出了超節點的架構優勢,讓系統內部的處理流程變得極其高效,資源競爭和擁堵被降到最低。最終,將通訊耗時控制在了10%以內。可以設想,在實際高並行場景下,當請求量急劇攀升時,系統能夠高效地將負載均勻分佈至各個計算單元,避免了個別節點的「擁堵」拖累整個系統的響應時間。這意味著,無論是第1個請求,還是第100萬個請求,都能獲得同樣穩定且低水平的延遲。既能「跑得快」又能「跑得多」,保證絕對極致的低時延,這就是實現規模化的生命線!基於軟體生態FlagOS,元腦SD200還能繼續相容更大的生態,主流程式碼即可直接編譯運行。當前,元腦SD200已實現對Pytorch算子的全覆蓋,AI4S的典型應用可以一鍵遷移。如下所示,64個AlphaFold 3蛋白質結構預測,即可在一台元腦SD200超節點AI伺服器同時運行。速度挑戰解決之後,token成本又該怎麼打下來?元腦HC1000為此,浪潮資訊給出的答案是——元腦HC1000超擴展AI伺服器。它基於全對稱DirectCom極速架構打造,能夠聚合海量的本土AI晶片,支援極大的推理吞吐。對於一個企業來說,在起步探索、POC階段,平台通用性更加重要,可以快速驗證想法,搶佔市場先機。這對其創新、迭代的速度,至關重要。但當它進入大規模部署階段,即應用被市場驗證,token呼叫數呈指數級增長是時,核心目標又轉變為——高效、低成本營運。而元腦HC1000,就能把推理成本打到最低1元/百萬token。 全對稱DirectCom極速架構DirectCom極速架構,每計算模組配置16顆AIPU,採用了直達通訊的設計,解決了傳統的伺服器架構下,協議轉換和頻寬增強問題,實現了超低延遲。計算通訊1:1均衡配比,實現了全域的無阻塞的通訊。傳統意義上,計算與通訊是互斥關係,計算時不會傳輸,計算完成後再傳。當前,有很多將計算和通訊結合的策略,主要是把原來在傳過程,針對GPU等待時間做最佳化。除此之外,還包含了許多細粒度的任務,比如不同模型架構,不同並行情況,通訊資料區塊大小和通訊策略都要最佳化,才能提升效率。HC1000還採用全對稱的系統拓撲設計,可支援靈活PD分離、AF分離,按需配置算力,最大化資源利用率。它還支援多元算力,讓不同的晶片協同工作。 超大規模無損擴展同時,HC1000支援超大規模無損擴展,實現從1024卡到52萬卡不同規模的系統建構。計算側支援DirectCom和智能保序機制,網路側支援包噴灑動態路由,實現了深度算網協同,相較傳統RoCE方法提升1.75倍。它還支援自適應路由和智能擁塞控制演算法,將KV Cache傳輸對Prefill、Decode計算實例影響降低5-10倍。總結來看,元腦HC1000是通過「全面最佳化降本」和「軟硬協同增效」,實現了高效token生產力。它不僅創新了16卡計算模組,單卡成本暴降60%+,每卡分攤系統均攤成本降低50%。而且,它採用了大規模工業標準設計,降低了系統複雜度的同時,還提高了系統可靠性,無故障執行階段間大幅延長。系統採用的DirectCom架構保障了計算和通訊的均衡,讓算網協同、全域無損技術,實現了推理性能1.75倍飆升。通過對LLM的計算流程的細分和模型結構的解耦,實現了計算負載的靈活的按需配比。單卡MFU計算效率,最高可以提升5.7倍。元腦SD200+元腦HC1000,成為浪潮資訊兩大「殺手鐧」,分別攻克了AI智能體應用速度和成本難題。那麼,下一步又該走向何方?「專用計算架構」是未來近期,OpenAI在算力佈局上,動作頻頻:先是和甲骨文簽下3000億美元大單,隨後又獲得輝達100億美元的投資。緊接著,他們又官宣了「星際之門」五大超算全新選址計畫。這一系列舉措,無不指向一個核心事實——對於LLM訓練和部署而言,算力需求始終是一個「無底洞」。當前,AI算力的可持續發展正面臨三大關鍵挑戰:工程極限:系統規模的擴展已逼近工程能力的上限。能源壓力:算力的大幅增長給電力基礎設施帶來了巨大負擔。效能失衡:算力投入和產出失衡,商業兌現處理程序緩慢。目前,市面上的「AI晶片」仍以通用晶片為主。GPU,是增加了CUDA核心和矩陣運算Tensor核心的傳統圖形計算晶片;ASIC,則是最佳化了矩陣計算和張量處理的通用矩陣計算晶片。但正如前文所述,這些基於通用計算架構的方案,正逐漸在能效比和成本效益上觸及瓶頸。僅是單純依靠堆疊更多計算單元,或是提升製程工藝的傳統路徑,難以沿著scaling Law在算力規模、能耗、成本之間取得平衡。其原因在於,通用架構雖然適用性強、易於產業化推廣,但效率低下。相比而言,應用面較窄的專用架構,則有著更高的效率。對此,浪潮資訊AI首席戰略官劉軍認為,未來的關鍵便是在於「發展AI專用計算架構」:我們必須推動發展路徑的轉變,要從一味地追求規模擴展,轉向注重提升計算效率。並以此為基礎,重新構思和設計AI計算系統,大力發展真正面向AI應用的「專用計算架構」。具體而言,就是從硬體層面來最佳化算子與演算法,定製出大模型專用晶片,進而實現軟硬體層面的深度協同最佳化,即「演算法硬體化」。只有這樣才能讓性能的Scaling,追上token的高速增長。這不僅是突破算力瓶頸的必經之路,更是推動AI產業邁向下一階段的基石。面對大模型時代,浪潮資訊的前瞻性思考為業界指明了一條方向:通過創新計算架構,讓AI更好地走向落地。 (新智元)
AI圈API大戰半年報:GoogleGemini獨霸半壁江山,DeepSeek悶聲發大財,OpenAI竟然沒進前三?
哈嘍哇,各位老鐵!AI尼歐哥我又雙叒叕來跟大家嘮嗑了!2025年這都過去一半了,AI圈的API大戰那是打得一個熱火朝天,風起雲湧。誰是真霸主?誰在裸泳?誰又在悶聲發大財?最近,推特上有位叫「karminski-牙醫」的大神,基於OpenRouter的資料,給我們扒了扒上半年大模型API市場的底褲。這不看不知道,一看嚇一跳!今天AI尼歐哥就帶大家好好盤一盤這份戰報,這瓜保熟,不好吃你來找我!/ 01 / 市場份額大洗牌:Google亂殺,DeepSeek瘋跑,OpenAI你人呢?先上乾貨,看看現在的API江湖座次表:1. Google (Google):簡直是殺瘋了!一個人獨佔43.1%的市場份額,穩坐頭把交椅。Gemini系列全家桶,特別是那個便宜又大碗的Gemini-2.0-Flash,性價比直接拉滿,誰能頂得住啊!2. DeepSeek:全場最大黑馬,沒有之一!硬是靠著DeepSeek-V3模型,從巨頭嘴裡搶下了19.6%的份額,直接把Anthropic擠到了第三。這說明啥?光靠吹牛逼沒用,人民群眾不好騙,產品好用、使用者粘性高才是硬道理!3. Anthropic:Claude系列表現也還行,以18.4%的份額守住了第三的位置,在程式設計等專業領域還是有一批鐵粉的。4. OpenAI:最讓人大跌眼鏡的就是它!市場份額波動極大,不僅沒進前三,還被前面的大佬甩開了一大截。GPT-4o發佈時那麼大陣仗,結果在API市場就這?人已麻,這波操作我看不懂!AI尼歐哥辣評:這牌桌變化太快,就像龍捲風!Google用“性價比”和“全家桶”兩張王牌把市場拿捏得死死的。而DeepSeek這匹黑馬的出現,證明了技術實力才是真正的護城河。至於OpenAI,是不是心思都花在App和整活上了,API這塊地都快荒了喂!/ 02 / 細分戰場神仙打架:各家都有“自留地”!光看總份額不過癮,我們再深入敵後,看看在各個細分領域,誰才是真正的王者!* 程式設計領域:Claude-Sonnet-4是絕對的王!佔據了44.5%的份額,看來程式設計師老哥們寫程式碼還是最認它,專業能力這塊沒得說。* 翻譯領域:Gemini-2.0-Flash再次亂殺全場!便宜、量大、速度快,簡直是翻譯場景的完美選擇。前幾名裡有七款都是Google的模型,這統治力,恐怖如斯!* 角色扮演(RP):這塊市場就比較“花”了,各種小眾模型百花齊放,主打一個“XP自由”。有意思的是,DeepSeek憑藉“高幻覺傾向”(說白了就是想像力豐富,能瞎掰)居然在這裡領先了。看來有時候,一本正經的AI反而沒有胡說八道的AI可愛啊!* 行銷領域:GPT-4o總算給OpenAI找回了場子!以32.5%的份額成為當之無愧的No.1。這說明在寫行銷文案、搞創意這塊,GPT的“嘴皮子”還是最溜的。AI尼歐哥辣評:API市場已經不是“一招鮮,吃遍天”的時代了。各家都在找自己的生態位,程式設計師用Claude,翻譯找Gemini,寫廣告還得是GPT。這種“術業有專攻”的局面,對咱們使用者來說,絕對是好事!/ 03 / 總結陳詞:幾家歡喜幾家愁扒完資料,AI尼歐哥我來給大家做個總結:* Google: 贏麻了。產品策略清晰,高低搭配,用性價比和全覆蓋把市場攪得天翻地覆。* DeepSeek:最大的驚喜。再次證明了,在AI圈,硬核技術才是最性感的肌肉。雖然它的DeepSeek-R1因為出第一個字太慢被瘋狂吐槽,但V3是真的香,使用者留存率高得嚇人。* Anthropic:穩紮穩打。專精於程式設計等領域,找到了自己的舒適區,活得還挺滋潤。* OpenAI:雷聲大,雨點小。API市場的表現實在有點拉胯,再不重視,這塊大蛋糕可就真沒你的份了。* Meta (Llama) & Mistral:一個份額持續萎縮,一個不溫不火,基本上在牌桌邊緣OB了。好啦,今天AI尼歐哥就跟大家嘮到這兒。總的來說,2025上半年的API江湖,就是Google的強勢碾壓和DeepSeek的黑馬逆襲。 (AI尼歐哥)
Meta宣戰OpenAI!發ChatGPT超強平替App,語音互動聯動AI眼鏡,Llama API免費用
Llama API免費體驗,獨立App正式上線。Meta和OpenAI全面開戰了!智東西4月30日報導,今天,在首屆LlamaCon開發者大會上,Meta正式發佈了對標ChatGPT的智能助手Meta AI App,並宣佈面向開發者提供官方Llama API服務的預覽版本。Meta AI App是一款智能助手,基於Llama模型打造,可通過社交媒體帳號瞭解使用者偏好、記住上下文。與ChatGPT一樣,Meta AI App支援語音和文字互動,並額外支援了全雙工語音互動(Full-duplex,允許在接收語音的同時平行處理和響應,支援邊聽邊說、即時打斷等功能)。Meta AI App可作為Meta RayBan AI眼鏡的配套應用程式,使用者能通過該眼鏡直接與Meta AI App對話。同場發佈的Llama API提供了包括Llama 4在內的多款模型,這一API與OpenAI SDK相容,使用OpenAI API服務的產品可無縫切換至Llama API。同時,Meta在新API中提供了用於微調和評估的工具,開發者可以打造符合自身需求的定製化模型,還可使用由AI晶片創企Cerebras和Groq提供的快速推理服務。值得一提的是,過去數年中,Llama相關發佈僅作為Meta Connect開發者大會上的一個環節,此次專門辦會足見他們對AI業務的重視。Meta CEO祖克柏並未出現在發佈會現場,會後其將參與2場對談。關於價格,開發者可通過申請獲取Llama API免費預覽版的使用權限。未來,這一API或將採取收費模式,具體價格表尚未發佈。Meta AI App及Web版本均已上線,免費可用。Meta AI Web端:https://www.meta.ai/Llama API文件:https://llama.developer.meta.com/docs/overview01.Llama模型下載量已超12億Meta AI App主打語音互動Meta首席產品官Chris Cox在LlamaCon大會上分享了Meta開源AI的最新進展。Cox稱,2年前,Meta內部對開放原始碼的商業化前景和優先順序問題都持有懷疑態度,但如今開源AI已成為行業大勢所趨。2個半月前,Meta宣佈Llama及其衍生模型已經實現了10億的下載量,今天,這一數字已迅速增長至12億。在開源平台Hugging Face上,Llama的大部分下載量均來自衍生模型,有數千名開發者參與貢獻,數萬個衍生模型被下載,每月被使用數十萬次。目前,Llama模型已被運用至Meta旗下的諸多App,包括WhatsApp、Instagram等等。在這些場景中,Llama模型經過了定製處理,以滿足特定用例需求,例如對話性、簡潔性(尤其是移動場景)和幽默感。為提供更豐富的AI體驗,Llama推出了獨立智能助手App——Meta AI。Meta AI App十分重視語音互動體驗,可提供低延遲、富有表現力的語音。Meta AI還可連接使用者的Facebook和Instagram帳戶,根據使用者互動歷史大致瞭解其興趣,並記憶使用者的相關資訊。這一App內建全雙工語音實驗模式。相關模型使用人與人之間的自然對話資料進行訓練,能提供更為自然的音訊輸出。全雙工意味著通道是雙向開放的,使用者可以聽到自然的打斷、笑聲等,就像真正的電話對話一樣。全雙工語音實驗模式還處於早期階段,沒有工具使用、網路搜尋等能力,無法瞭解新近發生的時事。Meta AI App中融入了社交元素,使用者可在發現頁面分享提示詞、生成結果等。這一App能與Meta Ray Ban智能眼鏡配合使用。使用者將能在眼鏡上開始對話,然後從應用程式或網路的“歷史記錄”選項卡中訪問它,以從上次中斷的地方繼續。02.一行程式碼就能呼叫可線上完成模型微調會上,Meta負責Llama業務的副總裁Manohar Paluri與Llama研究團隊成員Angela Fan共同發佈了由Meta託管的Llama API服務。Llama API提供簡單的一鍵式API金鑰建立,一行程式碼就能呼叫。支援輕量級的Python和Typescript SDK開發者以及OpenAI SDK。在API服務網頁中,Meta提供了互動式遊樂場。開發者可在其中嘗試不同的模型,更改模型設定,比如系統指令或溫度,以測試不同的組態。▲Llama API介面此外,開發者還可以使用多項預覽功能,包括基於JSON的結構化響應、工具呼叫等。Paluri認為,定製化才是開源模型真正應該領先的地方。Llama API提供了便捷的微調服務,目前支援對Llama 3.3 8B進行自訂。開發者可在微調標籤頁上傳用於微調的資料,或是使用Meta提供的合成資料工具包生成後訓練資料。▲Llama API模型微調介面資料上傳完成後,開發者可將資料的一部分切分出來,用於評估定製模型的表現。在Llama API平台上,可隨時查看訓練進展情況,微調完成後的模型可供下載,開發者可在任何場景中運行這一模型。大會上,Meta宣佈了與Cerebras和Groq的合作。這兩家企業可提供Llama 4 API服務所需的算力支援,其算力能實現更快的推理速度。03.結語:Llama探索商業化新道路自2023年Llama 1發佈以來,Llama系列模型已歷經四個主要版本,開源了數十款不同參數規模、不同架構的模型。不過,動輒數千億乃至兆參數量的模型,意味著巨大的投入——外媒爆料稱,過去一年內,Meta已經主動與微軟、亞馬遜等公司接洽,希望建立合作關係,共同分擔開發成本。本次,Llama API與Meta AI App的發佈,標誌著Meta開始積極探索Llama系列開源模型商業化的新道路。雖然目前的相關服務均處於免費狀態,但未來,Meta有望以開源模型為入口,引導企業和使用者使用關聯的雲服務,或是利用App實現商業化變現。在講完技術普惠和創新的故事之後,商業化或許是所有開源模型廠商們都需要共同面對的問題。 (智東西)
OpenAI 圖像API來襲!幾行程式碼,讓你的創意瞬間成真!
🔥 你敢相信?幾秒鐘讓AI為你畫出夢想中的世界!有沒有一刻,你腦海中浮現出一個絕妙的畫面,卻苦於無法將它呈現出來?現在,這個遺憾將成為過去!OpenAI,這個AI領域的“魔法師”,正式通過API開放了它的圖像生成神器——gpt-image-1。幾行程式碼,幾秒鐘時間,你的創意就能從虛幻變為現實。 🚀1. 技術的魔法棒:點燃創意的火花gpt-image-1,這個曾在ChatGPT中掀起熱潮的圖像生成模型,如今化身為開發者的「秘密武器」。它能聽懂你的指令,生成多樣風格的圖像,甚至還能精準呈現文字——這可是許多AI圖像工具的「老大難」問題。開發者可以透過API調整影像的解析度、風格,甚至背景透明度,彷彿擁有能隨心所欲揮舞的魔法畫筆。 🎨2. 使用者的狂熱:數字裡藏著的情感資料是最真實的見證者。ChatGPT影像功能上線首周,全球1.3億用戶創作了超過7億張圖片! 📊 這不是冷冰冰的數字,而是無數人對自我表達的渴望、對美的追求。如今,這股熱潮透過API釋放給了開發者,讓更多人能在這場創意盛宴中分一杯羹。你,準備好加入了嗎?3. 價格的誠意:讓每個人都能玩轉AIOpenAI用行動證明,尖端技術不該高高在上。他們的定價如同貼心的朋友:低解析度圖像每張約0.02美元,高畫質圖像也僅0.19美元。 💸 這樣的價格,讓初創公司、獨立開發者,甚至是學生,都能輕鬆將AI圖像生成融入自己的項目。創意,從未如此平易近人。4. 產業的風向標:先行者的腳步大玩家們早已聞風而動。Adobe將gpt-image-1嵌入Firefly和Express,Figma讓設計師在設計中直接產生圖像,Wix、Canva等平台也正在加速探索。 🌟 想像一下,在Figma中,你可以用幾句話產生一張海報,然後調整風格、增刪元素,整個過程如行雲流水。這樣的效率,誰能不愛?5. 安全的燈塔:創新不失底線技術如同一匹奔騰的野馬,OpenAI卻懂得如何為它套上韁繩。他們通過C2PA中繼資料浮水印,確保每張AI圖像都有“身份證”,來源透明可追溯。同時,開發者還能調節內容審計的敏感度,既釋放了創意的自由,也守護了技術的底線。 🛡️🌈 你呢?準備好迎接這場創意風暴了嗎?看到這裡,你是否已經心動不已?如果是你,這項技術會如何點亮你的生活?開發者們,你會用它打造什麼驚豔的應用?一般使用者們,你期待在那些場景中看到AI圖像的魔法?請在評論區留下你的想法,或是把這篇文章分享給你的好友,一起加入這場AI圖像革命的狂歡吧! 🎉 (澤問科技)
突發!OpenAI推出API組織驗證:不驗證就不讓用最新模型
OpenAI 剛剛上線了一項重要更新——API 組織驗證(Verified Organization)。直接關係到你未來能否用上 OpenAI 最頂尖的 AI 模型和新功能接下來一周OpenAI將發佈一系列新模型,Sam Altman 也已經官宣,如果不進行API驗證,新模型可能無法通過API使用OpenAI 立場:總有那麼一小撮人試圖利用 API 從事違規、甚至不安全的活動。推出這個驗證流程,就是為了在有效遏制濫用行為的同時,繼續向廣大的、負責任的開發者社群開放那些最先進的模型和能力。這是一種平衡策略,確保技術進步不被濫用拖累如何獲得驗證?需要準備什麼?想成為“認證組織”,你需要滿足以下條件,並在 OpenAI 平台操作:有效身份證明:你需要提供一份來自 OpenAI 支援的國家/地區的、有效的政府簽發身份證明(比如護照、駕照等,具體接受類型會在驗證流程中說明)唯一性限制:你不能在最近 90 天內使用同一份身份證明驗證過其他的 OpenAI 組織。也就是說,一個身份證明每 90 天只能用於驗證一個組織資格問題:請注意,並非所有組織都能立刻獲得驗證資格。如果你的組織暫時無法驗證,可以過段時間再嘗試驗證入口:直接訪問你的 Organization settings(組織設定)頁面即可找到驗證選項:platform.openai.com“驗證暫不可用”怎麼辦?如果你嘗試驗證時,系統告訴你當前不可用:繼續使用:你仍然可以像以前一樣,使用 OpenAI 平台和當前可用的模型。現有功能不受影響未來可能性:OpenAI 提到,那些目前需要驗證才能使用的模型,未來有可能(注意是“有可能”,非承諾)會無需驗證就開放給所有使用者。那些國家/地區的身份證明受支援?OpenAI 表示支援來自超過 200 個國家和地區的身份證明。想知道你的國家/地區是否在支援列表裡,最直接、最準確的方法就是啟動驗證流程,系統會根據你的情況進行判斷和提示至於麻不麻煩,OpenAI 表示:過程很快:只需幾分鐘即可完成沒有資金門檻:驗證本身不要求你有任何消費記錄或預存費用速率限制(Rate Limits):請注意,驗證本身不直接提升你的 API 呼叫速率限制。提升速率限制仍然依賴於你的使用量和支付等級(Usage Tiers)驗證好處好處非常直接: 解鎖高級模型和功能:通過驗證,你的組織將獲得訪問 OpenAI 最前沿模型(比如未來可能發佈的更強版本)和平台新增功能的權限。想用最新的 AI 能力?驗證是門票 為未來做準備:OpenAI 明確提到“為了迎接下一個激動人心的模型發佈”,建議大家現在就完成驗證。言下之意,未來的重磅模型很可能需要驗證才能使用寫在最後OpenAI 又增加了一層使用壁壘,感覺驗證又會成為一個生意,估計速度快的哥們已經在摩拳擦掌了 (AI寒武紀)